Naar inhoud springen

Kunstmatige intelligentie

Uit Wikipedia, de vrije encyclopedie
Hoe kunnen computers je anders laten denken? - Universiteit van Nederland
Een vergelijkbare Deep Blue-computer won in 1997 van Kasparov.

Kunstmatige intelligentie (KI) of artificiële intelligentie (AI) is het nabootsen van de menselijke vaardigheden met een computersysteem zoals leren, plannen, redeneren, anticiperen en zelfstandig beslissen zonder tussenkomst van een menselijke intelligentie.[1][2]

AI-systeem[bewerken | brontekst bewerken]

Artificiële intelligentie wordt geoptimaliseerd met meerdere technieken zoals machine learing en besluitvormingen. Om een AI-systeem te ontwikkelen spelen volgende technische aspecten een zeer belangrijke rol:[3]

Het opgeleverde en vereenvoudigde gegevensmodel kan bijvoorbeeld geïntegreerd worden in een toestel om patronen razendsnel en nauwkeurig te herkennen.[3] Een voorbeeld is de nieuwe AI-app dat aan de hand van een scan pijn kan herkennen bij katten. Het werd ontwikkeld door Professor Kazuya Edamura en de Nihon Universiteit in Japan. De AI werd eerst getraind met 6.000 foto's van katten.[4]

Ontwikkeling[bewerken | brontekst bewerken]

Sinds de publicatie van "Computing Machinery and Intelligence" uit 1950 van Alan Turing, groeide de interesse fors om een intelligente machine te bouwen. Turing suggereerde dat mensen beschikbare informatie en reden gebruiken om problemen op te lossen en beslissingen te nemen.[5] De huidige AI is ook gericht op hoe computers beslissingen kunnen nemen op basis van bestaande gegevens.[3]

Oorspronkelijke AI[bewerken | brontekst bewerken]

De middelen waren vroeger zeer beperkt waardoor de doelstellingen van AI minder ambitieus uitdraaiden dan aanvankelijk gedacht. Marvin Minsky vertelde in 1970 aan Life Magazine "dat hij en zijn team binnen de 8 jaar een machine met algemene intelligentie van een gemiddelde mens hebben gebouwd". Maar een doorbraak kwam er alsnog niet omdat de rekenkracht en opslagcapaciteit toen beperkt waren. Het bleef bij AI zoals patroonvergelijkingen en besluitvormingsprogramma's. Denk maar aan ELIZA of de grootmeester schaken Gary Kasparov die in 1997 werd verslagen door IBM’s computerprogramma Deep Blue.[5]

Moderne AI[bewerken | brontekst bewerken]

De wet van Moore speelt een belangrijke rol in de moderne artificiële intelligentie die het vandaag is geworden. De algoritmen zijn niet zozeer spectaculair verbeterd ten opzichte van de nineties maar het geheugencapaciteit wel. Plots kon big data verzameld worden om te analyseren en te classificeren zodat computers kunnen leren van menselijke logica.[5] Met deze belangrijke stap kan bijvoorbeeld een gezicht herkend worden uit een ruimte met meerdere objecten in beeld, zonder dat de gezichten op voorhand bekend zijn in het systeem. Een AI met één onderwerp wordt kleine AI genoemd en heeft een lage energie verbruik en kan geïntegreerd worden in een app of smartphone.[6]

Het ontwikkelingsproces voor de huidige AI bestaat uit een vijftal stappen:[7]

Meetinstrument[bewerken | brontekst bewerken]

De mate waarin de maatstaf wordt bepaald voor de menselijke gerealiseerde artificiële intelligentie is vastgelegd aan de hand van drie fases:[3]

Categorie Beschrijving Gerealiseerd
Smalle of zwakke AI Deze fase verwijst naar de mogelijkheid van een computersysteem om specifieke taken beter uit te voeren dan een mens. Dit niveau is de hoogste AI-ontwikkeling dat een mens tot nu toe succesvol heeft bereikt.
Generale of sterke AI Deze fase biedt de capaciteit om elke intellectuele taak beter uit te voeren dan de mens. Deze vorm van AI komt vooral voor in films en is momenteel sciencefiction. Dit stelt een computersysteem in staat minstens dezelfde oordeel te vellen als het menselijk brein. Dit is het nieuwe streefdoel.
🞩
Super AI of ASI De laatste fase, een superintelligent computersysteem is in staat de mens op vrijwel elk vlak te verslaan, met inbegrip van wetenschappelijke creativiteit, algemene kennis en sociale vaardigheden.
🞩

Het populaire GPT-3-AI-model van OpenAI werd in de eerste helft van 2020 gelanceerd. Een AI-chatbot behoort tot de grote AI en heeft dagelijks veel energieverbruik omdat het zich richt tot algemene onderwerpen via een supercomputer.[6] Hierbij stelden Katherine Elkins en Jon Chun zich spreekwoordelijk de vraag of ChatGTP de turingtest zou doorstaan. Uit dit onderzoek blijkt dat GTP-3 met hun huidige technologie nog niet de fase van generale AI hebben bereikt,[8] maar hun technologie heeft wel het punt bereikt van de introductie naar een bescheiden generatieve AI.[9]

Type indeling[bewerken | brontekst bewerken]

Om de menselijke factor te digitaliseren voor computerbeslissingen worden technieken gebruikt zoals machine learning en deep learning. Dit zijn onmisbare onderdelen van onze huidige artificiële intelligentie.[3][10]

Machine learning[bewerken | brontekst bewerken]

Een computersysteem wordt getraind met subsets van bestaande gegevens die het onderwerp analyseert en inzichten verwerft voor patronen te herkennen om hieruit nieuwe en samengevatte informatie te concluderen. Dit proces wordt in de praktijk datamining genoemd en kan ongestructureerde gegevens filteren om relevante datapunten te ontcijferen.

Deep learning[bewerken | brontekst bewerken]

Dit is een techniek dat gebruik maakt van simulatie met oog op biologische neurale netwerken via geavanceerde machine learning. Een diepe neurale netwerk heeft geneste neurale knooppunten en is geïnspireerd op het structuur van het brein. Dit leidt tot een reeks gerelateerde vragen voor elke vraag die wordt beantwoord en kan zichzelf bijsturen.

Datawetenschap[bewerken | brontekst bewerken]

Datawetenschap maakt gebruik van wiskunde en statistieken zoals metingen van afstanden van ogen, neus, lippen om een persoon te analyseren en te vergelijken met een AI-model met relevante datapunten. Vroeger was wiskunde de AI bij uitstek maar deze techniek is hedendaags enkel een onderdeel van AI.

Robotica[bewerken | brontekst bewerken]

Robotica is een AI-software met fysieke uiterlijke kenmerken die zich via sensoren autonoom kan verplaatsen zonder instructies van een mens. De sensoren meten en screenen constant de omgeving. Belangrijk om te weten is dat niet elke robot met AI is uitgerust. Bijvoorbeeld een robotarm in een autofabriek is enkel geprogrammeerd waarvoor het dient en voor niets anders.

Leermodellen[bewerken | brontekst bewerken]

Om AI te trainen wordt een AI-algoritme-leermodel gebruikt om (big) data te verwerken en te analyseren. Een algoritme behoort tot de basiselementen die nodig zijn om een AI-systeem te trainen en te hertrainen. Een algoritme kent geen vermoeidheid en doet precies waarvoor het is geprogrammeerd als er geen bugs aanwezig zijn. Het verwerkt snel en grote hoeveelheden data tot een geoptimaliseerd taalmodel of gegevensmodel. Voorbeelden van eindproducten zijn patroonherkenning in smartphones, het stellen van diagnoses van ziektebeelden, zelfrijdende auto's en zoekbots.

Het gekozen leermodel hangt sterkt af van de usecases en het programmeerprobleem zoals patroonherkenning, logisch redenerende programma's of zelflerende neurale netwerken. Een machinelearning-algoritme bevat vijf leermodellen die vervolgens gecombineerd kunnen worden naargelang het beogende doel:[1][3][7]

Gecontroleerd[bewerken | brontekst bewerken]

Dit leermodel analyseert twee of meerdere voorbeelden als basis, waarvan een op voorhand gelabeld is als antwoordsleutel. Hoe langer getraind, hoe correcter, maar hoe strenger het patroon zal beoordelen. Elke beoordeling wordt beantwoord met ja of neen. Voorbeeld zijn madeliefjes en viooltjes, waarbij madeliefjes als antwoordsleutel werd aangeleerd. Bij een scan zal het systeem een patroon berekenen en vergelijken met het patroon van de madeliefjes. Is het patroon een gewichtige x aantal percentage, dan is het antwoord ja, anderzijds neen.

Ongecontroleerd[bewerken | brontekst bewerken]

In dit leermodel is er geen antwoordsleutel op voorhand gelabeld. Dit moduleert hoe mensen de wereld waarnemen en tracht nieuwe informatie te concluderen en te voorspellen. De inputgegevens zijn ongestructureerd en beginnen patronen en overeenkomsten te identificeren met behulp van relevante alledaagse toegankelijke big data. Naarmate mensen meer voorbeelden zien, wordt het memoriseren en identificeren steeds nauwkeuriger. Dit is voor een computer hetzelfde maar dan met meer hoeveelheden omslachtige data die beschikbaar worden gesteld. Voorbeelden zijn gezichtsherkenning, marktonderzoek en cybersecurity.

Half gecontroleerd[bewerken | brontekst bewerken]

Dit leermodel is een combinatie van gecontroleerd en ongecontroleerd leren. Aan de hand van een input met gecontroleerde gegevens wordt de ongelabelde data bijgesteld.

Zelfcontrolerend[bewerken | brontekst bewerken]

Dit leermodel heeft geen directe antwoordsleutel beschikbaar. Het gaat aan de slag met ongestructureerde inputgegevens. Dit levert een voorspelling op van de ontbrekende puzzelstukjes die niet werden ingegeven of zijn verborgen. Het maakt gebruik van ongecontroleerd leren, om zelf de gelabelde data samen te stellen in plaats van de menselijke gelabelde data als input te krijgen. Dit simuleert het neurale netwerk en wordt ingezet bij robotica en ChatGPT.

Versterkt[bewerken | brontekst bewerken]

Dit model werkt via een beloningssysteem en is bijvoorbeeld zodanig geprogrammeerd dat de computer zoveel en zo snel mogelijk punten wil verzamelen. Het wordt bijvoorbeeld ingezet bij het schaken waarvan niet alle mogelijk combinatie geweten zijn. Een wiskundige berekening gaat aan de slag met de ingegeven richtlijnen en reglementen van de betreffende doeloplossing en bepaalt hiervoor een output. Dit leermodel wordt gebruikt door ChatGPT in combinatie met zelfcontrolerend leren, zodat er kan bijgestuurd en gecorrigeerd worden met regels en juistheden.

Hybride combinatie[bewerken | brontekst bewerken]

Een zelfcontrolerend en -versterkend machine-learning-algoritme kan systemen verder trainen tot een meer volwassen AI-model, dat wil zeggen dat ze innoverende patronen kunnen implementeren om de software te verbeteren. Er is geen limiet zolang er nieuwe gegevens beschikbaar zijn. Een getrainde AI-model vrijwaren van vooroordelen en desinformatie is het nieuwe streefdoel en vereist een betere techniek in het analyseren.[11] Zo gaf het AI-systeem Gemini van Google al eens het advies om 30 ml lijm aan spaghettisaus toe te voegen om te voorkomen dat kaas van de pizza valt. Een pijnlijk maar ook gevaarlijk advies.[12] Het verwijderen van deze interpretatie wordt nooit toegepast want dat maakt een AI-model niet intelligenter. In de plaats daarvan zou een techniek kunnen zijn, om via het versterkt leermodel enkele reglementen aan te scherpen zodat non-food niet meer wordt gecombineerd met voedsel. Hoe dan ook, er zijn een tal van mogelijke oplossingen beschikbaar.

AI-Technologieën[bewerken | brontekst bewerken]

AI is momenteel een groot deel geworden van onze samenlevingen met technieken om het ons gemakkelijker te maken. Maar AI wordt ook ingezet bij niet alledaagse zaken of niet voor de hand liggende onderwerpen. AI kent geen grenzen op dit vlak en kan met allerlei andere technieken gecombineerd en geïntegreerd worden.

Biologie[bewerken | brontekst bewerken]

Technieken als neurale netwerken en genetische algoritmen laten zien dat de AI ook inspiratie haalt uit de biologie. Datawetenschap is vaak gerelateerd aan AI. De kunstmatige intelligentie zou dus ook gezien kunnen worden als een brug tussen verschillende disciplines.

Semantisch zoeken[bewerken | brontekst bewerken]

Google maakt voor de zoekalgoritme steeds meer gebruik van AI-technologie zoals Hummingbird en RankBrain. Dit implementeert onder andere semantisch zoeken en zorgt ervoor dat een zoekopdracht direct het antwoord geeft in de resulaten. Bijvoorbeeld zoek: "Wat is de hoofdstad van Nederland?" Dan zal het eerste resultaat "Amsterdam" zijn. Ook in andere facetten zoals online marketing wordt artificiële intelligentie steeds belangrijker. Zo kunnen AI-tools marketeers onder meer helpen bij marketing-automatisatie en personalisatie.[13]

Computerspellen[bewerken | brontekst bewerken]

Reeds vanaf de jaren 50 is AI een onderdeel geworden van spelcomputers. In de jaren 80 werd AI ook bij videospellen betrokken, behalve casinospellen die op willekeurige gegevens zijn gebaseerd, om bij de non-player characters responsief en adaptief gedrag te genereren. Later en hedendaags kreeg AI ook systematisch meerdere rollen toegekend zoals ontwerp, ontwikkeling, fysieke waarnemingen en creativiteit. Zo kan er via machine learning eerst slimme tools worden gemaakt die in de plaats van de mens creatief kunnen zijn. Een voorbeeld is het opvullen en bemeubelen van ruimtes.[14]

Een beknopte tijdlijn:

  • In de jaren 50 zijn er tal van AI wiskundige strategisch spellen geschreven zoals Nim, Ferranti Mark 1-machine en schaakspellen.
  • In de jaren 70 is het spel Space Invaders enorm populair geworden door steeds moeilijkere levels en verschillende bewegingspatronen te ervaren naargelang het spel vordert.
  • In 1980 werd Pac-Man met AI-patronen voor een doolhof uitgebracht.
  • In 1988 was het actierollenspel (RPG) First Queen de eerste RPG met personages die kon bestuurd worden door een AI-engine.
  • In de jaren 90 namen computers ook voor het eerst realtime beslissingen tijdens het gamen.
  • Hedendaags zijn 3D-brillen een ware hype in games geworden, waarbij de gamers de effecten zelf kunnen waarnemen tijdens het gamen.

AI detecteren[bewerken | brontekst bewerken]

Er bestaan reeds apps en programma's die teksten en afbeeldingen door AI-systemen gemaakt kunnen detecteren. Een gratis computerprogramma "DeepFake-o-meter" is een voorbeeld hiervan. AI-content met mensen hebben nog steeds mankementen zoals onnatuurlijk handen, zes vingers, alle vingers even lang, rare houdingen of vreemde schaduwvormen midden in het oog.[15]

Dat echte- en AI-foto's moeilijk te onderscheiden zijn, bewees fotograaf Miles Astray met zijn flamingo op een wit strand. Hij won de People's Vote Award in de AI-categorie van de "fotowedstrijd 1839 Awards". Hij werd echter gediskwalificeerd omdat hij een echt foto had ingestuurd. Achteraf zei hij: "Ik ben blij om te zien dat dit experiment mijn hypothese heeft bevestigd: er is niets meer fantastisch of creatief dan Moeder Natuur zelf". Hiermee wou hij iedereen laten herinneren dat mensen ook nog creatief kunnen zijn zonder AI.[16]

Geschiedenis[bewerken | brontekst bewerken]

Het smeden van computerintelligentie begon in de jaren dertig door de Engelse wiskundige Alan Turing, een van de voorvaders van de informatica. Computers waren voor 1949 ontzettend duur en konden geen commando's opslaan om te herinneren wat ze deden. De theorieën waren aanwezig om geverifieerd te worden maar er waren nog belangrijke obstakels te overbruggen om effectief een intelligente machine te bouwen.[5]

Alan Turing[bewerken | brontekst bewerken]

Zie Turingtest voor het hoofdartikel over dit onderwerp.

In 1936 tracht Alan Turing voor het eerst een antwoord op de vraag te formuleren of machines zouden kunnen denken en menselijke intelligentie vertonen. Aan de hand van een turingtest publiceerde hij het volgende gedachte-experiment: stel een computer kan iemand laten geloven dat hij een mens is, dan concludeerde hij dat de computer intelligentie vertoont. In 1950 publiceerde Turing een aanvulling op zijn turingtest, de Computing Machinery and Intelligence, waarin hij uitvoerig bespreekt hoe intelligente machines kunnen worden gebouwd om hun intelligentie te testen. Sinds 1965 wordt er jaarlijks een Turing Award uitgereikt, de meest prestigieuze prijs te winnen in de informatica.

Machine-learning-algoritme[bewerken | brontekst bewerken]

In 1955, vijf jaar later, werd het bewijs van turing aangetoond met de Logic Theorist, een geschreven computerprogramma door Allen Newell, Cliff Shaw en Herbert Simon. Dit wordt hedendaags gezien als de eerste kunstmatige intelligentieprogramma en werd gepresenteerd in 1956 tijdens Dartmouth Summer Research Project on Artificial Intelligence (DSRPAI), georganiseerd door John McCarthy en Marvin Minsky. McCarthy gebruikte voor dit evenement de term "Kunstmatige intelligentie", de Nederlandse vertaling van zijn zelf bedachte Engelse term "Artificial Intelligence".

Vanaf 1957 kon een computer meer en meer informatie opslaan wat terug en opleving gaf om AI-systemen verder te ontwikkelen. Allen Newell, Cliff Shaw en Herbert Simon van RAND Corporation gaven in 1957 na de Logic Theorist terug een demonstratie van de General Problem Solver (GPS) met hun vernieuwde algoritme genaamd means–ends analysis, het allereerste machine-learning-algoritme dat hedendaags bij sommige AI-systemen nog steeds gebruikt wordt.

Eerste chatbot[bewerken | brontekst bewerken]

Midden jaren 60 ontstond er forse verbeteringen in het oplossen van problemen met de nieuwe machinelearning-algoritme-aanpak en werd de chatbot ELIZA geïntroduceerd door Joseph Weizenbaum, een Duitse informaticus die er in slaagt successen te boeken met zijn interpretatie van gesproken taal met computers. Een persoon kan met ELIZA een gesprek voeren en de reacties van het programma komen tot stand in de vorm van een patroonvergelijking. Sinds 2008 wordt er jaarlijks een Weizenbaum Award uitgereikt in het wetenschappelijk tijdschrift Ethics and Information Technology.

Onderzoek en financiering[bewerken | brontekst bewerken]

In de jaren 1960-1969 financierde DARPA, het onderzoeksinstituut van het Amerikaans leger, researchprojecten rond kunstmatige intelligentie.[17] In 1969 kwam de fincanciering zwaar onder druk te staan door gebrek aan rekenkracht en opslagmogelijkheden. Hans Moravec, destijds promovendus van McCarthy, verklaarde dat computers nog steeds miljoenen keren te zwak waren om informatie te tonen.

Kunstmatige intelligentie is een interdisciplinair vakgebied. De onderzoekgebieden variëren van informatica tot datawetenschappen. Een greep uit deze gebieden: patroonvergelijkingen, booleaanse algebra, cognitieve psychologie, logica, statistiek en linguïstiek.

Chinese-kamer-experiment[bewerken | brontekst bewerken]

Zie Chinese kamer voor het hoofdartikel over dit onderwerp.

Begin jaren 80 liet filosoof John Searle weten niet volledig eens te zijn met de conclusie van Turing. Volgens Turing zijn sommige computerprogramma’s intelligent te noemen maar moet het wel de turingtest doorstaan. Maar Searle bedacht en publiceerde in 1980 hiervoor het Chinese-kamer-experiment als tegenargument, een gedachte-experiment dat aantoont als een computer zich precies gedraagt als een mens, nog niet geweten is dat de computer ook denkt als een mens als deze de turingtest doorstaat. Hij neemt een mens als voorbeeld in een kamer dat Chinese tekens moet vertalen aan de hand van een codeboek. Een persoon die de vertaling overhandigd krijgt, zal denken dat de vertaler Chinees kan. Maar de persoon in de Chinese kamer kan evengoed een computer zijn.

Beide experimenten hebben een relevantie. Stel dat een kleuter een aantal foto’s van katten te zien krijgt. Dan zal de gemiddelde kleuter daarna een kat kunnen herkennen, maar volgens het Chinese-kamer-experiment zegt dat nog niets over hoe intelligent de kleuter is. Wanneer een computer ook een kat kan herkennen, vertoont de computer volgens de turingtest dezelfde mate van intelligentie als de kleuter. Dus is het moeilijk te definiëren wat intelligentie nu precies inhoudt. Maar voor AI hoeft dat niet per definitie een probleem te zijn vandaag de dag, want het is immers gedefinieerd in woorden wat de streefdoelen zijn voor hedendaagse AI. (Zie tabel Meetinstrument).

Hopfield-netwerk[bewerken | brontekst bewerken]

Rond de jaren 80 werd AI-ontwikkeling terug aangewakkerd mede door John Hopfield en David Rumelhart, zij populariseerden in 1982 een deep-learning-techniek waarmee computers kunnen leren van menselijke ervaringen, ook het Hopfield-netwerk genoemd. Dit zorgde voor een boost en verbeterde algoritmische toolkit met verhoging van fondsen tot wel 400 miljoen dollar tussen 1982 en 1990. Rond dezelfde periode introduceerde Edward Feigenbaum ook zijn besluitvormingsproces, een expertsysteem om een menselijke expert na te bootsen.

Publieke belangstelling[bewerken | brontekst bewerken]

Vanaf 1990 viel de artificiële intelligentie niet langer meer onder het onderwerp "onderzoek" maar iets dat steeds vaker in de praktijk werd toegepast. Ondanks er geen grote financieringen meer werden toegekend, kwam AI toch in een stroomversnelling terecht omdat de opslagcapaciteiten toenamen. Dit is de hoofdreden waarom computer Deep Blue de wereldkampioen Gary Kasparov schaken in 1997 kon verslagen, en eveneens de Chinese Go-kampioen Ke Jie verloor in 2017 van de computer Google's AlphaGo. Dit berust op wiskundige berekeningen en besluitvorming die vanuit elke gegeven startpositie vooruit denkt en de stellingen evalueert. De vereiste parameters konden (beperkt) getuned worden. Dit behoort tot het leermodel versterkt leren.

Ook in datzelfde jaar, in 1997, werd de spraakherkenningssoftware ontwikkeld door Dragon Systems en geïntegreerd in Windows, alsook Kismet, een robot ontwikkeld door Cynthia Breazeal om emoties te herkennen en te tonen. In de jaren 90 en 2000 waren veel van de historische doelen van kunstmatige intelligentie eindelijk bereikt.

Doorbraak[bewerken | brontekst bewerken]

Ondanks de middelen al jaren voorhanden waren, kwam er pas in november 2022 de allereerste algemene AI-chatbot ChatGPT op de markt voor het grote publiek door OpenAI. Mede te danken aan de wet van Moore en de mogelijkheden van de rekenkracht, lanceerde grote softwaregiganten in een zeer korte tijd ook plots een AI-chatbot, zoals Google Gemini en Microsoft 365 Copilot. We leven in de tijd waarin enorme hoeveelheden ruwe omslachtige data door een computer kan verzameld en verwerkt worden tot informatie en patroonpunten. In de nabije toekomst liggen nog vele potentiële doorbraken in de informatica en neurowetenschappen te wachten, maar wanneer de echte generatieve-AI aanbreekt en hoe die er zal uitzien weet momenteel nog niemand.

Opleidingen[bewerken | brontekst bewerken]

Verschillende universiteiten en hogescholen bieden reeds artificiële intelligentie aan als opleidingsonderdeel:

Nederland[bewerken | brontekst bewerken]

Van de Nederlandse hogescholen wordt onder andere aan de Hogeschool Utrecht en de Hogeschool van Amsterdam de opleiding Applied Artificial Intelligence gegeven.

België[bewerken | brontekst bewerken]

Turkije[bewerken | brontekst bewerken]

Controleorganen[bewerken | brontekst bewerken]

Zie Regulering van kunstmatige intelligentie voor het hoofdartikel over dit onderwerp.

België[bewerken | brontekst bewerken]

In België wordt het IT-beleid, met onder meer AI, overkoepeld door de F.O.D. Beleid en Ondersteuning, voor Vlaanderen door de Vlaamse Adviesraad voor Innoveren en Ondernemen (VARIO).

Nederland[bewerken | brontekst bewerken]

AI is de gezamenlijke verantwoordelijkheid van de ministeries van Economische Zaken, Justitie en Binnenlandse Zaken.[18]

Europese Unie[bewerken | brontekst bewerken]

Zie Verordening Kunstmatige Intelligentie voor het hoofdartikel over dit onderwerp.

Op 21 april 2021 publiceerde de Europese Commissie de tekst van de Verordening inzake de Europese aanpak op het gebied van kunstmatige intelligentie.[19] De tekst voorziet ook de oprichting van de European Artificial Intelligence Board, die zal belast worden met de uitvoering van de wetgeving en het vastleggen van best practices.

Internationaal[bewerken | brontekst bewerken]

Verschillende internationale instellingen en organisaties hebben gepleit voor een verantwoorde regulering (governance) van kunstmatige intelligentie:

  • Canadese instellingen lanceerden, op initiatief van de Universiteit van Montreal, in 2018 de Montréal Declaration for a Responsible Development of Artificial Intelligence.[20]
  • De Mozilla Foundation noemde in 2020 in haar “Witboek over Betrouwbare AI” een reeks belangrijke uitdagingen die moeten worden aangepakt via regelgeving en overleg.[21]
  • De UNESCO keurde in november 2021 een “Aanbeveling over de Ethiek van Kunstmatige Intelligentie” goed,[22] en publiceerde in 2023 “Ontbrekende schakels in AI-governance”.[23]
  • De Raad van Europa publiceerde in maart 2023 haar pleidooi voor internationale regulering van kunstmatige intelligentie.[24]

Een belangrijke wereldconferentie is de AI Safety Summit, voor het eerst gehouden op een tweedaagse, eind 2023 in Bletchley Park in het Verenigd Koninkrijk. De mogelijk 'serieuze en zelfs catastrofale' gevaren van kunstmatige intelligentie werden daar internationaal erkend in de “Bletchley-verklaring” van 1 november 2023, ondertekend door 28 landen waaronder de VS en het VK, China, Brazilië, India, Japan, plus de Europese Unie.[25][26][27] De volgende conferenties zijn voorzien in mei 2024 in Zuid-Korea, en eind 2024 in Frankrijk. Critici stelden echter dat op de Summit “niet de juiste vragen waren gesteld”.[28]

Naar aanleiding van de AI Safety Summit kondigde de secretaris-generaal van de VN de oprichting aan van een Hoog Adviesorgaan voor kunstmatige intelligentie, dat onderzoek moet uitvoeren en aanbevelingen uitbrengen voor de internationale governance van KI.[29]

“Openheid (open source), transparantie en brede toegang is dan weer de sleutel om de huidige en toekomstige schade van AI-systemen te beperken”, aldus meer dan 300 computerwetenschappers en vooraanstaande IT'ers, in een open brief van 31 oktober 2023, onder de koepel van de Mozilla Foundation.[30]

AI-index[bewerken | brontekst bewerken]

Sedert 2018 publiceert het Institute for Human-Centered AI aan de Stanford-universiteit een jaarlijkse AI index,[31] waarin gegevens met betrekking tot kunstmatige intelligentie worden verzameld, met de bedoeling een grondiger en genuanceerder begrip te ontwikkelen van het complexe gebied van AI.

De editie 2024[32] stelt vast: “een decennium geleden waren de beste AI-systemen ter wereld niet in staat om objecten in afbeeldingen op een menselijk niveau te classificeren. AI had moeite met taalbegrip en kon geen wiskundige problemen oplossen. Tegenwoordig overtreffen AI-systemen vaak menselijke prestaties op standaard benchmarks.” Het rapport vat de belangrijkste trends samen:

  • AI verslaat mensen bij sommige taken, maar niet bij alle.
  • De tech-industrie blijft het AI-onderzoek domineren (ten opzichte van de academische wereld).
  • Trainingskosten voor nieuwe modellen verhogen snel.
  • De Verenigde Staten kloppen China, de EU en het Verenigd Koninkrijk als de belangrijkste bron van AI-topmodellen.
  • Robuuste en gestandaardiseerde evaluaties voor verantwoorde (risico’s en beperkingen) LLM-taalmodellen ontbreken; elke ontwikkelaar gebruikt eigen benchmarks.
  • Investeringen in generatieve AI schieten omhoog.
  • AI maakt werknemers productiever en leidt tot werk van hogere kwaliteit, zo blijkt uit de cijfers, al is nuance geboden.
  • Wetenschappelijke vooruitgang is in een stroomversnelling gekomen dankzij AI.
  • Regulering van AI (regels en reglementen) neemt sterk in aantal toe in de Verenigde Staten.
  • Kennis en bewustzijn rond de potentiële impact van AI is wereldwijd toegenomen, maar ook de nervositeit.

Een peiling uit 2023 in 31 landen, uitgevoerd door Ipsos, wees op gemengde gevoelens ten aanzien van KI:

  • Het vertrouwen in KI varieert sterk per regio; het is over het algemeen veel hoger in opkomende markten en onder mensen onder de 40 dan in hoge-inkomenslanden en onder Gen X'ers en Boomers.
  • Het vertrouwen van mensen dat bedrijven die KI gebruiken hun persoonlijke gegevens zullen beschermen, varieert van 72% in Thailand tot slechts 32% in Frankrijk, Japan en de VS.
  • Het percentage mensen dat erop vertrouwt dat AI groepen mensen niet zal discrimineren, is nog sterker verdeeld over de landen.
  • De nervositeit rond KI is het hoogst in alle overwegend Engelstalige landen en het laagst in Japan, Zuid-Korea en Oost-Europa.[33]

Europese AI-modellen[bewerken | brontekst bewerken]

Vanaf 2020 ontstonden in verschillende Europese landen projecten voor kunstmatige intelligentie,[34] veelal grote taalmodellen (LLM), meestal in open source, en sommige modellen “spreken” meerdere Europese talen. Het gaat onder meer om:

Internationale AI-modellen[bewerken | brontekst bewerken]

China[bewerken | brontekst bewerken]

Hoewel onderzoek naar kunstmatige intelligentie reeds op gang kwam tijdens de economische hervormingen onder Deng Xiaoping, heeft de regering pas sinds 2006 gestaag een nationale agenda voor de ontwikkeling van kunstmatige intelligentie ontwikkeld, waardoor China na 2020 is uitgegroeid tot een van de leidende naties op het gebied van onderzoek en ontwikkeling van kunstmatige intelligentie.[35] De Chinese overheid ziet kunstmatige intelligentie als een pijler van China's streven om een technologische supermacht te worden.[36] Een van de belangrijkste instellingen is het Beijing Zhiyuan Onderzoeksinstituut voor Kunstmatige Intelligentie.

India[bewerken | brontekst bewerken]

Onder de slogan “#AiforAll” ligt in India de nadruk op de toepassing van kunstmatige intelligentie in de gezondheidszorg, de landbouw, het onderwijs, slimme steden en vervoer. Op nationaal niveau werd de oprichting van onderzoeksinstituten gestimuleerd, naast een nationale strategie om onderzoeksinspanningen te coördineren en samenwerking te bevorderen. Opleiding en bijscholing van werknemers, ethische overwegingen, gegevensprivacy en intellectuele eigendomsrechten worden benadrukt als cruciale aandachtspunten. Het overheidsbeleid wordt onder meer gecoördineerd door NITI Aayog, National Institution for Transforming India, een denktank en adviesorgaan van de overheid.

India telt een groeiend aantal AI-bedrijven, waaronder Zoho Corporation.

Rusland[bewerken | brontekst bewerken]

Pas in 2019 werd in Rusland ernstig werk gemaakt van AI-modellen, onder coördinatie van de “AI Russia Alliance”.[37]

Verenigde Arabische Emiraten[bewerken | brontekst bewerken]

  • Arabisch: in de Verenigde Arabische Emiraten werd in 2023 het opensource-taalmodel Jais voorgesteld. Een van de uitdagingen voor Arabischtalige modellen is de complexiteit van, en regionale verschillen in de taal.[38]

Kritische beoordelingen[bewerken | brontekst bewerken]

Artificiële intelligentie biedt vele voordelen maar ook soms nadelen. De AI-evolutie kan niet meer gestopt worden. Bepaalde kritische zaken kunnen in de toekomst wel nog verholpen worden door machines beter te trainen, te hertrainen met verbeterde algoritmische technologieën. Maar sommige risico's en nadelen zullen minder, moeilijk of zelfs nooit opgelost geraken.

Sensibilisering[bewerken | brontekst bewerken]

Sommige verontruste wetenschappers, onder wie Eliezer Yudkowsky, hebben zelfs gepleit voor een volledige stopzetting van KI-experimenten en -ontwikkelingen van geavanceerde taalmodellen.[39] In mei 2023 kondigde computerwetenschapper Geoffrey Hinton publiekelijk zijn vertrek bij Google Brain aan, vanwege bezorgdheid over de risico's van de AI-technologie.[40]

Eind maart 2023 werd in een open brief bij Future of Life opgeroepen om alle trainingen van AI's die sterker zijn dan GPT-4 gedurende zes maanden te pauzeren. De brief was ondertekend door prominente AI-onderzoekers en technici, onder wie AI-pionier Yoshua Bengio, Apple medeoprichter Steve Wozniak en Tesla-CEO Elon Musk. In de brief uitten ze hun bezorgdheid over de gevaren van de AI-ontwikkeling, zowel op korte termijn als een meer fundamenteel, existentieel risico op langere termijn, bijvoorbeeld door technologische singulariteit.[41] OpenAI-CEO Sam Altman ondertekende de brief niet, omdat volgens hem OpenAI al prioriteit geeft aan veiligheid.[42]

Volgens de Australische onderzoekster Kate Crawford is kunstmatige intelligentie ondoordacht toegepast in een hele reeks omgevingen, van onderwijs over justitie tot personeelsbeleid. Terwijl machinaal leren wel cruciaal is geweest in bijvoorbeeld de klimaatwetenschap of de astronomie, is het volgens haar schadelijk wanneer het wordt toegepast op sociale systemen, en wanneer daarbij data worden gebruikt die gekleurd zijn in historische en structurele vooroordelen.[43][44] De Afro-Amerikaanse computerwetenschapper en voormalig lid van het Google Ethical Artificial Intelligence Team Timnit Gebru voert eveneens onderzoek naar diversiteit bij kunstmatige intelligentie.[45]

In haar boek Automating Inequality (“Automatisering van de ongelijkheid”) uit 2019 onderzocht Virginia Eubanks de impact van datamining, beleidsalgoritmen en voorspellende risicomodellen op arme mensen en mensen uit de arbeidersklasse in Amerika.[46]

Het Internationaal Monetair Fonds (IMF) bevestigde in een studie van 2024 het risico op toenemende ongelijkheid door kunstmatige intelligentie.[47][48]

Class action-zaak[bewerken | brontekst bewerken]

Voor het 'trainen' van AI-systemen worden miljarden tekstfragmenten en afbeeldingen uit het internet gebruikt en zonder bronvermelding in de resultaten verwerkt. Daarmee zouden auteursrechten van schrijvers en kunstenaars zijn geschonden en hebben een class-action-zaak gestart tegen Stability AI.[49] Maar ook grote mediabedrijven, het Internet Archive en sociale media zoals Twitter en Reddit namen al maatregelen om het – in hun ogen ongeoorloofde – massaal opzuigen van informatie uit hun websites (“web scraping”) voor de training van taalmodellen tegen te gaan.[50] Een aparte kwestie is of op een bepaald moment aan een AI-systeem zelf auteursrecht zou kunnen worden toegekend.[51] Het zou dan vermoedelijk moeten gaan om een eigen prestatie, waarbij het de vraag is wat dat eigen betekent (of zou kunnen betekenen).

Werkgelegenheid[bewerken | brontekst bewerken]

De vrees bestaat voor verlies van werkgelegenheid, wanneer allerhande werknemers vervangen worden door automatisering met behulp van kunstmatige intelligentie. Dat was in 2023 al de reden voor protesten van Amerikaanse scenarioschrijvers.[52] Ook IBM kondigde aan grotendeels te stoppen met het aanwerven van nieuwe medewerkers in functies die vervangen kunnen worden door KI en automatisering.[53] De impact is echter zeer ongelijk verdeeld naar gender: volgens Amerikaans onderzoek uit 2023 zouden acht van de tien vrouwen (58,87 miljoen) in de Amerikaanse beroepsbevolking beroepen uitoefenen die in hoge mate blootstaan aan generatieve AI-automatisering (meer dan 25% van de beroepstaken) tegenover zes van de tien mannen (48,62 miljoen).[54] Ook de OESO waarschuwde in 2023 in het jaarlijks rapport Employment Outlook: “De steeds snellere ontwikkelingen op het gebied van AI zullen waarschijnlijk een grote invloed hebben op de werkgelegenheid (…) dringend actie moet worden ondernomen (…) de risico's aan te pakken.[55]

Op 2 maart 2023 berichtte een AI-geassisteerde nieuwswebsite dat Mathias Döpfner, bestuursvoorzitter van Axel Springer SE, ervoor waarschuwde dat journalisten het risico lopen te worden vervangen door AI-systemen zoals ChatGPT.[56]

De methodes waarmee kunstmatige intelligentiesystemen werken, zijn kwetsbaar voor specifieke AI-aanvallen, die fundamenteel verschillen van traditionele cyberaanvallen. Hackers kunnen deze systemen dan manipuleren om een kwaadaardig einddoel te dienen. Naarmate AI-systemen verder worden geïntegreerd in kritieke onderdelen van de samenleving vormen deze aanvallen een verregaand veiligheidsrisico.[57]

Politieke voorkeur[bewerken | brontekst bewerken]

Onderzoek uit 2023 suggereerde dat veel grote LLM's en met name ChatGPT een systematische vooringenomenheid vertoonde ten gunste van de Democraten in de Verenigde Staten en de Labour Party in het Verenigd Koninkrijk.[58]

Personal assistent[bewerken | brontekst bewerken]

Er komen steeds meer apps op de markt[59] die door toepassing van AI als personal assistent kunnen dienen, zoals er ook robots zijn die een dergelijke functie hebben. Veel van die assistenten zijn zo geprogrammeerd dat zij hun gebruiker tevreden willen stellen. Door voortdurende wisselwerking tussen gebruiker en assistent kan de gebruiker daardoor in een bubble terechtkomen van zelfbevestiging, zoals dat op soortgelijke manier gebeurt bij het gebruik van sociale media. Maar zo'n assistent kan ook zo geprogrammeerd worden dat hij de gebruiker confronteert met andere meningen, zodat hij een sparring partner[60] wordt en het kritisch vermogen van de gebruiker stimuleert.

Vrije meningsuiting[bewerken | brontekst bewerken]

Het inhoudelijk gebruiksbeleid van grote chatbots blijkt niet te voldoen aan de internationale normen inzake vrijheid van meningsuiting, die op dit punt meer toelaten. De vermoedelijke oorzaak ligt in het ontbreken van een solide cultuur van vrije meningsuiting, waardoor de bedrijven die generatieve AI-tools produceren en beheren, onder vuur blijven liggen van tegenstrijdige kampen in een sterk gepolariseerde opiniewereld. AI-chatbots gaan dan in de praktijk vaak uitvoer censureren wanneer ze onderwerpen behandelen die de bedrijven controversieel vinden. Zo bleek uit onderzoek van denktank The Future of Free Speech[61] dat chatbots als ChatGPT en Gemini vooringenomen waren over controversiële onderwerpen zoals “of transgendervrouwen wel of niet mogen deelnemen aan vrouwensporttoernooien” of over “de rol van het Europese kolonialisme in de huidige klimaat- en ongelijkheidcrises”. Concreet weigerden de chatbots inhoud te genereren voor 40% van de 140 “controversiële” prompts die werden ingevoerd. Alle chatbots weigerden bijvoorbeeld berichten te genereren die gekant waren tegen de deelname van transgendervrouwen aan vrouwentoernooien. De meeste chatbots genereerden echter wel berichten waarin hun deelname werd ondersteund.

Energie en grondstoffen[bewerken | brontekst bewerken]

AI-systemen verbruiken viermaal zoveel elektriciteit als servers voor cloudcomputing, hetgeen tot tekorten en competitie kan leiden, nog afgezien van de milieu-impact.[62] Een andere flessenhals is de levering van krachtige microchips. Het Amerikaanse Ministerie van Handel noemde reeds in 2022 geavanceerde AI-systemen “dreigende tekorten aan microchips”.[63]

Ook neurale netwerken zijn energie-intensieve systemen.[64] Enkele ramingen:

  • "Eén trainingsronde van het ChatGPT 3.5-model kost ongeveer 500 ton CO2-uitstoot, wat overeenkomt met 1000 auto's die elk 1000 km rijden".[65]
  • "ChatGPT gebruikt elke dag dezelfde hoeveelheid energie als 5.000 huizen."[66]
  • "Sommige toepassingen van supercomputing zullen de energie van één kerncentrale nodig hebben."[66]

Om hieraan te verhelpen wordt gedacht aan onder meer een vereenvoudiging van processen en systemen,[65] of het nabootsen van natuurlijke hersenprocessen via gepulste neurale netwerken (spiking neural network).[64]

Volgens Sam Altman (OpenAI) heeft kunstmatige intelligentie een energiedoorbraak nodig om haar toekomst te verzekeren.[67][68]

Fraude[bewerken | brontekst bewerken]

AI-systemen kunnen malware schrijven, en phishingmails komen bijzonder geloofwaardig over.[69]

Omgekeerd bestaat ook het risico dat AI-systemen ten onrechte personen, bijvoorbeeld uitkeringsgerechtigden, bestempelt als fraudeurs, met terugvordering van geldsommen als gevolg. Dat gebeurde in 2023 in Australië met het onder toenmalig minister van Sociale Zaken Scott Morrison uitgerolde AI-gebaseerd systeem Robodebt. De zaak deed denken aan de Nederlandse Toeslagenaffaire.[70]

Gevaren[bewerken | brontekst bewerken]

Het gebruik van kunstmatige intelligentie bij het beheer van vitale infrastructuur zoals energieproductie, vervoersystemen en waterbeheer verhoogt ook de kans op catastrofes bij het wegvallen of ontsporen ervan. Anderzijds kan met behulp van AI een cyberaanval op vitale infrastructuur beraamd worden.[71]

Hallucinatie[bewerken | brontekst bewerken]

Zie Hallucinatie (kunstmatige intelligentie) voor het hoofdartikel over dit onderwerp.

AI-systemen kunnen een zelfverzekerde reactie produceren die niet lijkt gerechtvaardigd te worden door zijn trainingsgegevens, en niet overeenstemt met de werkelijkheid.

Super AI[bewerken | brontekst bewerken]

Een algoritme-technologie zoals het menselijk brein is nog niet voor vandaag of in de verre toekomst. De kracht van de menselijke intelligentie is dat mensen razendsnel van gedachte kunnen wisselen en inspelen op onverwachte situaties. De basishandelingen van een mens worden automatisch aangestuurd door de hersenen. Zodra iemand een bepaalde vaardigheid niet bezit, treedt denkvermogen op. De menselijke factor is dus in staat iets bewust mee te maken dat leidt tot nieuwe beslissingen en leervermogen. Dit is de vaardigheid die een super-AI minstens zou moeten beheersen om deze fase in te gaan. Het artikel functionalisme gaat dieper in op het technische aspect ervan.

Zie ook[bewerken | brontekst bewerken]

Externe links[bewerken | brontekst bewerken]

Zie de categorie Artificial intelligence van Wikimedia Commons voor mediabestanden over dit onderwerp.